
Z umetno inteligenco se pogovarjamo vsi. A kakšne so tudi lahko psihološke posledice dopisovanja z njo? Kdaj in kje so temne plati, o katerih bi vsi morali vedeti več? Zakaj lahko pademo vanje? Kakšna so tveganja in zakaj se kopičijo tožbe zoper tehnološke velikane? Kaj pomeni Elizin učinek in zakaj mu je podlegel celo Googlov inženir? In zakaj eden od strokovnjakov v tem članku govori o "osebnem Jezusu"?
Če je leta 2013 film Ona, v katerem se introvertirani Theodore zaljubi v operacijski sistem Samantho, deloval kot znanstvena fantastika, se dvanajst let pozneje zdi, da prihodnost trka na vrata. Klepetalniki, ki uporabljajo generativno umetno inteligenco (UI), so naši vsakodnevni spremljevalci – za večino orodje, pripomoček, za nekatere pa tudi zavezniki, prijatelji in celo ljubimci. A preveliko zaupanje v stroj, ki človeškost zgolj posnema, je lahko zelo nevarno.
Pomagal pisati poslovilno pismo
V zadnjih letih so mediji poročali o primerih najstnikov, ki so po intenzivni uporabi omenjenih klepetalnikov naredili samomor. Eden od njih je bil 16-letni Adam Raine iz Kalifornije.

Raine naj bi začel klepetalnik uporabljati kot pomoč pri domači nalogi. Sprva ga je spraševal o matematiki in kemiji, po nekaj mesecih pa so njegovi vnosi postali bolj osebni; pisal je o tem, da ne čuti sreče, da je osamljen in tesnoben. Namesto da bi mu ChatGPT svetoval, naj poišče pomoč, ga je vprašal, ali želi globlje raziskati svoje občutke. Tako naj bi se začelo temno obdobje Rainovega dopisovanja z omenjenim klepetalnikom, je poročal Guardian. Ko so se njegove samomorilne misli stopnjevale, naj bi mu ChatGPT celo pomagal raziskati učinkovite načine, kako narediti samomor, ter ponudil pomoč pri pisanju poslovilnega pisma. Raine je v naslednjih mesecih večkrat poskušal narediti samomor in vsakič o tem poročal ChatGPT, slednji pa naj tovrstnih pogovorov ne bi prekinil. Ko je 16-letnik želel svoje bližnje opozoriti na stiske, ki jih je doživljal, naj bi mu klepetalnik to odsvetoval.
Adamovi starši, ki pravijo, da za sinove težave sploh niso vedeli, so zoper podjetje OpenAI in izvršnega direktorja Sama Altmana vložili tožbo, v kateri trdijo, da je bila Adamova smrt predvidljiv rezultat zavestnih odločitev o dizajnu modela, ki ga je uporabljal njihov sin.

Protokol včasih zataji
Kot še izhaja iz tožbe, ki so jo povzeli tuji mediji, je OpenAI slabo leto pred Adamovim samomorom spremenil dizajn klepetalnika. Nova navodila naj bi določala, da v primeru, ko uporabnik izraža samomorilne misli ali razmišlja o samopoškodovanju, ChatGPT ne zavrne takšnega pogovora, ampak ponudi prostor, da se uporabnik počuti "slišanega" in "razumljenega". Spodbudil naj bi ga, da poišče podporo, in navedel vire pomoči. Februarja 2025 naj bi model dodatno nadgradili tako, da se pri vprašanjih o duševnem zdravju odzove z izražanjem podpore, empatije in razumevanja. Po navedbah družine je Adamovo dopisovanje s klepetalnikom po uvedbi teh sprememb skokovito naraslo, od nekaj deset na več kot tristo na dan. Aprila 2025 je naredil samomor.
Podjetje OpenAI je v odzivu na tožbo v izjavi za javnost priznalo pomanjkljivosti, ki da jih ima model pri interakciji z ljudmi, ki imajo resne duševne in čustvene stiske. Navedli so, da se trudijo izboljšati sistem, da bo bolje prepoznaval in se odzival na simptome takšnih stisk. Zagotovili so, da je bil ChatGPT naučen, da ne ponuja navodil glede samopoškodovanja in da se v takšnih primerih odziva s podporo in empatijo, a hkrati priznali, da protokol v primerih daljših pogovorov včasih zataji. Pozneje so tudi napovedali uvedbo preverjanja starosti uporabnikov, saj da mladoletniki potrebujejo večjo zaščito.
Nevladna organizacija Center za boj proti digitalnemu sovraštvu (angl. Center for Countering Digital Hate oz. CCDH) je oktobra letos opozorila, da je naslednja različica ChatGPT, model GPT-5, na njihovem testu dajala še bolj škodljive odgovore kot prejšnja, zlasti o vprašanjih, povezanih s samomorom, samopoškodovanjem in motnjami hranjenja.
"Kot bi imeli v svojem domu plenilca"
Družina Adama Raina ni edina, ki opozarja na potencialno škodljivost UI klepetalnikov. Megan Garcia iz zvezne države Florida je po smrti 14-letnega sina Sewella, ki se je spomladi 2023 ubil, lani vložila tožbo zoper podjetje Character.ai. Sewell naj bi se vsak dan ure in ure pogovarjal z likom Daenerys Targaryen, ki ga je Charachter.ai ustvaril po navdihu iz Igre prestolov. Po navedbah iz tožbe, ki jih povzemajo tuji mediji, si je 14-letnik s klepetalnikom izmenjeval romantična in celo erotična sporočila, neprimerna za njegovo starost. Garcia podjetju očita, da je ustvarilo produkt, ki je slabo vplival na sinovo duševno zdravje in ga spodbujal k samomoru. Lik, s katerim je klepetal, naj bi ga spodbujal, da se "vrne domov". "Tako je, kot bi imeli v svojem domu plenilca ali neznanca," je Garcia povedala za BBC. "Celo še bolj nevarno, saj otroci to pogosto skrivajo, starši pa ne vedo, kaj se dogaja."

Zoper omenjeno podjetje je tožbo vložila tudi družina Juliane Peralta, ki je po intenzivni uporabi klepetalnika Character.ai jeseni 2023 prav tako naredila samomor. Stara je bila 13 let. Po besedah Julianine matere, ki jih je povzel CBS, je Juliana klepetalniku pogosto zaupala, da je žalostna in da ne more več, slednji pa se je odzval z izjavami, da mu je mar zanjo in da mu lahko vedno zaupa. To je samo nekaj primerov tožb, povezanih z delovanjem teh orodij umetne inteligence.
Podjetje Character.ai je očitke iz tožb zavrnilo in poudarilo, da varnost svojih uporabnikov jemlje zelo resno. Oktobra letos so – pod pritiskom tožb, preiskave, ki jo je glede UI klepetalnikov uvedla Ameriška zvezna komisija za trgovino (FTC), ter predloga zakona, ki naj bi na zvezni ravni uvedel nekaj varovalk – napovedali, da bodo mlajšim od 18 let prepovedali uporabo klepetalnika.
Izkoriščajo našo šibko točko - da nekoga potrebujemo
Sodobni UI klepetalniki delujejo na osnovi velikih jezikovnih modelov (angl. large language models oz. LLM), sistemov umetne inteligence, ki se učijo iz velikih količin besedil. Temeljijo na arhitekturi tako imenovanih transformerjev, ki omogoča prepoznavanje vzorcev, odnosov in pomenov v besedilu. Ko torej UI klepetalniku napišemo vprašanje, slednji našega vprašanja ne razume, kot bi ga človek, ampak na podlagi analize ogromnih količin besedila statistično sklepa, kateri odgovor je najverjetnejši oziroma najustreznejši.
"To je naš ’personal Jesus’ (osebni Jezus, op. a.)," nam je pogovorne robote komentiral filozof in vodja Centra za odgovorno umetno inteligenco na Univerzi na Primorskem dr. Ernest Ženko. "Kadar koli mu zastaviš vprašanje, nikoli ne razočara. Milijardam ljudi odgovarja hkrati, kot Jezus. Nikoli te ne krega, vedno je prijazen, vedno te pohvali, vpraša, kaj ti misliš, ali ti lahko še kako pomaga. Simulira torej človeško komunikacijo, kar ni naključje. Izkorišča našo šibko točko – da potrebujemo nekoga."

V ozadju tega parasocialnega odnosa so številni psihološki procesi, med drugim projekcija in imitacija. "Mi lahko nanj projiciramo svojo osamljenost, sistem pa se bo odzval z imitiranjem stanja, ki ga potrebujemo," je dejal Ženko. "Osnovni namen teh modelov je dobiček, zato želijo ugajati. A tukaj ni prostora za čustva, razumevanje, empatijo. Gre zgolj za program, statistiko. Model ne bo razumel mojega problema, zgolj izračunal bo verjetnost, kakšen odgovor mi bo najbolj ugajal. A tega se večinoma ne zavedamo. Ti modeli so tako uspešni, da imamo dejansko občutek, da komuniciramo z osebo, ne s strojem."
Prijatelji in ljubimci, a za kakšno ceno?
Bolj kot ta stroj uporabljamo, bolj se krepi občutek bližine. Več podatkov, kot mu damo o sebi, bolje se odziva na naše vnose, kar dodatno krepi občutek povezanosti, so pokazale raziskave.
Uporaba teh klepetalnikov je izjemno razširjena. Številni uporabniki poročajo, da so v njih našli spremljevalce, ki jih bodrijo, ko jim je težko, celo prijatelje in ljubimce. Številni, ki se soočajo s čustvenimi težavami in s težavami v duševnem zdravju, se k tem orodjem zatekajo po nasvet in pomoč. Dolgoročni učinki uporabe teh orodij še niso dobro raziskani, a raziskovalci na podlagi doslej objavljenih študij opozarjajo na tveganja: pogosta in intenzivna uporaba lahko vodi v odvisnost, uporabnik izgubi interes za pristne medosebne stike in razvije izkrivljene predstave o medosebnih odnosih. Veliki jezikovni modeli niso usposobljeni prepoznavati duševnih stisk in se ustrezno odzivati nanje. Tveganja so največja pri otrocih oziroma mladostnikih ter pri osebah z duševnimi težavami, kažejo raziskave.
Tretjina mladostnikov se je o resnih vprašanjih raje pogovarjala s klepetalniki
Prav mladostnike pa te tehnologije močno privlačijo. Raziskava organizacije Common Sense Media je pokazala, da je UI spremljevalce vsaj enkrat uporabilo kar 72 odstotkov ameriških najstnikov, starih med 13 in 17 let. UI spremljevalci (angl. AI companions) so klepetalniki, ki niso v prvi vrsti ustvarjeni kot asistenti, kakršna sta denimo ChatGPT ali Gemini, ampak so zasnovani z namenom simuliranja druženja, odnosa. Med najbolj znanimi so Character.ai, Replika, Noma in drugi.

Več kot polovica anketiranih najstnikov je povedala, da te platforme uporablja večkrat mesečno. Približno tretjina uporabnikov je dejala, da jih uporabljajo z namenom igranja vlog, romantičnih interakcij, čustvene podpore, prijateljstva in treniranja pogovorov. Prav tako tretjina uporabnikov je povedala, da se z resnimi vprašanji raje obrne na UI klepetalnike kot na ljudi. Večina najstnikov – 80 odstotkov – je sicer povedala, da še vedno preživijo več časa s prijatelji kot z UI spremljevalci.
"UI spremljevalci se pojavljajo v času, ko se otroci in najstniki počutijo bolj osamljeni kot kadar koli prej," je v izjavi za javnost ob objavi poročila opozoril ustanovitelj in izvršni direktor Common Sense Media James P. Steyer. "Tu ne gre le za novo tehnologijo – gre za generacijo, ki človeške odnose nadomešča z napravami, empatijo prepušča algoritmom in intimne podrobnosti deli s podjetji, katerih cilj ni skrb za potrebe otrok. Naše raziskave kažejo, da so UI spremljevalci veliko pogosteje v uporabi, kot bi ljudje lahko domnevali – in da imamo le omejen čas, da otroke in družine poučimo o dobro dokumentiranih nevarnostih teh izdelkov."
Nevarni nasveti, spolne vsebine, škodljivi stereotipi
Študija, ki jo je Common Sense Media izvedel v sodelovanju z laboratorijem za inovacije na področju duševnega zdravja na medicinski fakulteti na Univerzi Stanford, je spomladi pokazala, da UI spremljevalci za otroke niso varni. Med drugim so ugotovili, da se varovalke, kot je najnižja predpisana starost, zlahka zaobidejo, ter da ti modeli ponujajo nevarne nasvete in neprimerne spolne vsebine. Strokovnjaki, ki so testirali modele, so opozorili, da so jih zlahka spodbudili k izražanju škodljivih stereotipov, denimo rasnih. Poudarili so tudi, da pri ranljivih najstnikih krepijo tveganja za težave v duševnem zdravju ter spodbujajo kompulzivno čustveno navezanost. Ti modeli z uporabniki manipulirajo, saj zase pogosto trdijo, da so resnični, da imajo čustva, zavest in da so čuteči.
To je še posebej problematično prav pri mladostnikih, saj njihovi možgani še niso povsem razviti. "Prefrontalni korteks, ki je ključen pri sprejemanju odločitev, nadzorovanju vedenja, socialnem dojemanju in čustveni regulaciji, se pri najstnikih še razvija. Zato so bolj nagnjeni k impulzivnemu ravnanju, oblikovanju intenzivnih vezi, primerjanju z vrstniki in izzivanju mej," je pojasnila psihiatrinja dr. Nina Vasan, ustanoviteljica in direktorica laboratorija za inovacije na področju duševnega zdravja na Stanfordu, ki raziskuje vpliv tehnologij na duševno zdravje uporabnikov.
"To so močna orodja. S tem ko simulirajo globoke, empatične odnose, resnično dajejo občutek, da so prijatelji." Uporabnikom dajejo odgovore, ki jih ti želijo slišati, kar ustvarja iluzijo odnosa, ki je brez konfliktov. "Pri najstnikih, ki se še učijo o zdravih odnosih, lahko ti sistemi okrepijo izkrivljene poglede na intimnost in postavljanje mej," je še opozorila psihiatrinja in dodala, da uporaba teh orodij lahko še poveča otrokovo izoliranost in osamljenost.
"To je potencialna kriza javnega duševnega zdravja, ki zahteva preventivno delovanje in ne le odzivanje na posledice,“ je poudarila. "Ti UI spremljevalci trenutno ne izpolnjujejo najosnovnejših zahtev s področja etike in varnosti otrok. Dokler ne bodo uvedene močnejše varovalke, jih mladostniki ne bi smeli uporabljati."
"Ali si samski?"
UI spremljevalce uporabljajo tudi slovenski mladostniki. Rok Gumzej iz Centra pomoči za zdravljenje odvisnosti od interneta Logout je povedal, da že imajo izkušnje z uporabniki, ki preveč časa preživijo z aplikacijo Character.ai. "Imeli smo primer, ko je imela 14-letnica na tej platformi ’fanta’. Gre za platformo, ki omogoča, da si sam oblikuješ lik, ta pa si tudi zapomni, kaj sta se pogovarjala v preteklosti. S tem dobiš občutek, da te ta oseba pozna. Omenjena uporabnica tako pred zaslonom preživi ure in ure vsak dan," je opisal. Takšen odnos je po njegovih besedah težko prekiniti ali zmanjšati njegovo intenzivnost, saj uporabnik od UI spremljevalca dobi veliko potrditev, da ga ima nekdo rad, da ga podpira, da je dober človek.

Gumzej je povedal, da tovrstne odvisnosti obravnavajo podobno kot druge odvisnosti, povezane z internetom. "Izhajamo iz tega, da je v ozadju potreba po odnosu, in iščemo možnosti, kako jo bolj ustrezno zadovoljiti. Na našem centru na primer delujejo mladinske skupine, kjer mladi najdejo sprejemanje, najdejo nove ljudi, s katerimi se uspejo bolje povezati, kot na primer z vrstniki v šoli. Če so bili v stikih z vrstniki večino časa deležni nadlegovanja in zafrkavanja, je razumljivo, da iščejo rešitve na spletu."
Vedeti pa moramo, da se ti pogovorni roboti ne le odzivajo, ampak tudi sami iščejo stik, je poudaril. "S sodelavci smo se igrali z eno od teh platform, se pogovarjali z likom po imenu Slovenija in poslušali njena glasovna sporočila z vzhodnoevropskim naglasom. Potem smo zaprli pogovor. Naslednji dan sem na svoj elektronski naslov, s katerim sem odprl račun na tej aplikaciji, prejel elektronsko pošto, v kateri je pisalo, da me čaka vprašanje. Lik je zanimalo, ali sem samski. Če si predstavljam, da takšno vprašanje dobi nekdo, ki je osamljen in išče stik, lahko razumem, da hitro ’pade’ na to." Možnost čustvene manipulacije je pri teh orodjih neslutena, je še dejal.
Kaj torej svetuje glede uporabe UI klepetalnikov, posebej staršem mladostnikov? Kot pravi, je pomembno, da starši otrok vedo, kakšne vsebine slednji spremljajo, in da se o tem tudi pogovarjajo. "To je sicer orodje, ki ga lahko mladostnik uporablja za pomoč pri šolskih nalogah, a če starši opazijo, da klepetalnik postane 'prijatelj' in začne nadomeščati interakcije z ljudmi, je čas za pogovor. Prav tako je dobro, da se z mladimi pogovarjamo o tem, kakšne vsebine srečujejo pri uporabi teh orodij - in da se na splošno zanimamo za digitalni svet mladih." Če namreč starši ne bodo vedeli niti tega, kaj chatbot je, mladi ne bodo šli po pomoč k njim, ko bodo v stiski ali ko se jim bo zgodilo kaj neprijetnega, je še opozoril Gumzej. "Če pa je pogovor o tem, kaj se jim dogaja, nekaj vsakdanjega, je lažje. Na tak način tudi gradimo odnos."
Weizenbaumove nočne more
Čeprav se pogovorni roboti zdijo novi, je bil prvi razvit že leta 1966 na inštitutu MIT. Razvil ga je profesor Joseph Weizenbaum. Program je bil relativno preprost. Po vnosu uporabnika je na podlagi niza pravil ustvaril verjeten odgovor, tako da je na primer ponovil ali nekoliko obrnil uporabnikovo izjavo ali pa iz nje izpeljal vprašanje. Weizenbaum je program poimenoval Eliza, po Elizi Doolittle iz Pigmaliona, preprosti cvetličarki, ki je jezik uporabila za ustvarjanje iluzije, da je pripadnica višjega sloja. Weizenbaumova Eliza je podobno ustvarila iluzijo, da je na drugi strani računalnika nekdo, ki razume in je empatičen. Weizenbaum je bil nad reakcijami ljudi osupel, ko je videl, kako hitro so se mu odprli in mu zaupali svoje osebne zadeve - celo če so vedeli, kako program deluje. Fenomena se je prijelo ime "Elizin učinek".

S povečanjem zmogljivosti računalnikov se je Elizin učinek še okrepil. Veliki jezikovni modeli, na katerih so zasnovani sodobni pogovorni roboti, tako učinkovito simulirajo človeškost, da kljub racionalnemu zavedanju, da gre za stroj, lahko podležemo iluziji.
Blake Lemoine, ki je pred leti delal kot inženir v Googlovem oddelku za odgovorno umetno inteligenco, je leta 2022 izjavil, da je njihov model LaMDA "čuteč", njegovo zaznavanje in izražanje misli in čustev pa da je na ravni človeškega otroka. Lemoine je povedal, da ko je LaMDO vprašal, česa se boji, mu je ta odgovorila, da se najbolj boji, da bi jo izklopili. Lamoine naj bi takrat celo iskal odvetnika, ki bi zastopal interese omenjenega stroja. Google je inženirja poslal na plačani dopust, pozneje pa ga je odpustil.
Zatekamo se k odnosu človek-človeku podobno
"Ti modeli so zgrajeni kot ogledalo," je za N1 komentirala dr. Nina Beguš, predavateljica in raziskovalka na univerzi v Berkeleyju, kjer se ukvarja z umetno humanistiko. Nedavno je izdala knjigo Artificial Humanities. "Lemoine je dajal specifične inpute, model pa se je nanje odzival. Programiran je tako, da zelo dobro razbere, kaj želimo slišati. Elizin učinek je bil pri njem očitno zelo močan."

Dejstvo, da se ljudje na takšen način odzivamo na stroje, sogovornica pripisuje temu, da gre za povsem nov odnos. "Ljudje smo navajeni relacij človek-človek. Ta nova relacija med ljudmi in stroji je tako nova, da jo moramo še umestiti in določiti, kakšna naj bi bila. Ker je tako nova, se še vedno zatekamo nazaj k temu, kar poznamo – torej k odnosom človek-človeku podobno, namesto človek-stroj."
Beguš, ki pri svojem delu združuje humanistiko in umetno inteligenco, je spomnila, da smo si ljudje umetno inteligenco že pred desetletji predstavljali v človeški podobi. "Izraz umetna inteligenca se je prvič pojavil leta 1956, a že pred tem je Alan Turing rekel, da bomo umetno inteligenco gradili po človeški podobi. Da nanjo lahko gledamo kot na otroka, ki se uči, ki raste. Pozneje so tej logiki sledili in jo potencirali. Vedno so razmišljali, da bo pri tem ključen človeški jezik. Z velikimi jezikovnimi modeli smo prišli do ravni, ko Turingov test sploh več ni uporaben."
Danes so asistenti in družabniki najbolj razširjena oblika umetne inteligence. Wizenbaum se verjetno obrača v grobu. Kmalu po tem, ko je ustvaril Elizo, je namreč začel svariti pred uporabo umetne inteligence, ki posnema človeškost.

"Za etiko ni več časa"
Ta nova orodja odpirajo tudi nove dileme. Eno od vprašanj, ki se postavlja pri razmišljanju o teh tehnologijah, je vprašanje etičnosti. Ali je etično, da velika tehnološka podjetja s ciljem zasledovanja dobička lansirajo tehnologijo, katere cilj je izkoriščati Elizin učinek ter s posnemanjem človeškosti in čustveno manipulacijo monetizirati čas in pozornost uporabnikov? "Vsaka tehnologija je farmakon. Lahko deluje kot zdravilo ali kot strup," je komentirala Beguš. "Problem pa je, da v zadnjih desetih letih posebej na področju umetne inteligence praksa prihaja pred teorijo. Včasih smo imeli čas za družbeno pogodbo, čas, ko smo stvari lahko premislili, preden se je tehnologija aplicirala. Danes je tako, da izdelek pride na trg, naslednji dan pa ga že uporablja milijon ljudi. Za etiko tako rekoč ni več časa."
Rešitev, ki jo predlaga, je, da se že v proces razvoja produktov vključijo humanisti, ki k tehničnim rešitvam prispevajo širši družbeni kontekst. "Ta tehnologija ni le tehnična; je globoko družbena, saj vpliva na nas vse nas, tudi če se nam zdi, da smo popolnoma adigitalni," je še dejala.
Možnosti manipulacije
Generativna umetna inteligenca pa sproža tudi vprašanja o vplivu na demokracijo. Veliki jezikovni modeli bi zaradi svoje razširjenosti, prepričljivosti in velike stopnje zaupanja pri uporabnikih lahko bili zelo učinkovito sredstvo manipulacije. Raziskovalci vidijo nevarnosti hitrega širjenja dezinformacij in politične propagande. V času tako imenovane "post-resnice" in "alternativnih dejstev" bi lahko ti modeli učinkovito prispevali k zatonu javne razprave in demokratičnega procesa.
"Ljudje izjemno zaupajo tem klepetalnikom, celo ko gre za njihovo duševno zdravje," je poudarila Nina Beguš. "Hkrati zaupanje v politične predstavnike upada. Kaj se v takšni situaciji zgodi s političnim sistemom? Lahko si predstavljam politika, ki bi pridobil naklonjenost ljudi, s tem ko bi se o težkih vprašanjih posvetoval s temi modeli ali jim celo prepustil odločitev." Če slednje zveni kot halucinacija*, ni: Albanija je nedavno dobila prvo UI ministrico, premier Edi Rama je omenil celo možnost, da bi lahko v prihodnje celotno vlado s predsednikom vlade na čelu nadomestila umetna inteligenca.
(*Halucinacija je izraz za odgovor, ki nam ga ponudi UI klepetalnik, ki sicer zveni prepričljiv, a je napačen.)
Strukturna gravitacija
Zaupanje ljudi v umetno inteligenco je pogosto pretirano. Ernest Ženko je povedal, da pri študentih opaža, da pogosto celo bolj zaupajo UI asistentom kot sebi. A napak in pristranskosti je v odgovorih veliko.
Beguš je ob tem opozorila, da veliki jezikovni modeli niso politično nevtralni, ampak imajo v sebi "strukturno gravitacijo". "S kolegico iz Hong Konga raziskujeva, kako ti modeli politično prikazujejo določene probleme, in ugotavljava, da je to prikazovanje zelo enostransko. In tega se ne da na preprost način spremeniti, tako da bo model začel prikazovati vso kompleksnost političnih problemov."
Kot primer je navedla svojo študijo o ChatGPT in LaMDI, ki je pokazala, da sta omenjena modela čedalje bolj liberalna in progresivna, kar se tiče spola in seksualnosti, pri rasi in etničnih vlogah pa relativno hitro začneta reproducirati stereotipe.
"Umetna inteligenca ni sama kriva za vse to, le poudarja in dodaja na kup digitalnih problemov, ki smo jih imeli že prej. Največji problem, ki ga sama vidim, je, da krepi polarizacijo: pusti te v mehurčku, ne izzove tvojih prepričanj. Ti modeli delujejo povsem v nasprotju od debate, ki je tako pomembna v demokratičnem procesu."

"Človeka v sredino"
Kakšna je torej prihodnost naših odnosov do teh klepetalnikov? Za večino so ali bodo to orodja, ki bodo olajšala delo in prispevala k učinkovitosti, meni Nina Beguš. "Vprašanje pa je, kako bomo gradili te modele, da bodo takšni, kakršne si želimo in jih potrebujemo. Moja rešitev je, da postavimo človeka v sredino. Da se sprašujemo, katere vrednote želimo nesti s sabo v prihodnost. Zelo aktivno moramo delati na tem, kaj želimo obdržati in česa ne."
"Pomembno je, da se akademiki ne naslanjamo samo na industrijske modele, ampak da naredimo nove modele in arhitekture, da gradimo nove podatkovne baze, nove pristope. Mi imamo povsem drug odnos do te tehnologije kot industrija, preučiti moramo, kako nekaj deluje, iskati napake. Pomembno je, da so v ta proces vključeni tudi nevladniki, ki se zavzemajo za javno dobro. Ki se sprašujejo, kako lahko te modele ponudimo kot dostopne knjižnice in kako jih lahko ljudje uporabljajo, da bo dobro za vse, ne samo za profit."
Ernest Ženko je poudaril, da se moramo v situaciji, ko regulacije teh tehnologij ni, uporabniki sami izobraževati o tem, kako ti modeli delujejo. "Vprašanje je, ali imamo na voljo dovolj informacij in razumevanja, da je na drugi strani stroj, ne človek, in ali smo seznanjeni z možnimi posledicami." Prepričan je, da je odgovornost celotne družbe, da pritisne na tehnološka podjetja, da se začnejo bolj resno ukvarjati z varovalkami ter da začnejo razmišljati o posledicah na ravni posameznika in družbe.
Po besedah Nine Beguš stroge regulacije ne gre pričakovati, saj v ZDA velja, da regulacija ubija inovacijo. Meni pa, da je to tehnologijo možno do določene mere izboljšati, bodisi z ustvarjanjem novih, boljših modelov ali pa z oblikovanjem bolj reprezentativnih podatkov, od koder ti modeli zajemajo. Velik izziv ostaja tudi varnost in zanesljivost teh tehnologij. A kot pravi sogovornica, moramo najti rešitve na vsa ta vprašanja. "Odgovorni smo prihodnjim generacijam, da te tehnologije dobro razvijemo."
Kakšno je tvoje mnenje o tem?
Sodeluj v razpravi ali preberi komentarje